home *** CD-ROM | disk | FTP | other *** search
/ SuperHack / SuperHack CD.bin / CODING / MISC / NUD10-24.ZIP / NUD10-24.TXT
Encoding:
Text File  |  1993-01-07  |  20.7 KB  |  533 lines

  1.  
  2. Neuron Digest   Sunday, 27 Dec 1992
  3.                 Volume 10 : Issue 24
  4.  
  5. Today's Topics:
  6.          Doctoral Program in Philosophy-Psychology-Neuroscience
  7.                          some information needed
  8.                              Job Opportunity
  9.                        Follow-up on product guide
  10.          Very Fast Simulated Reannealing (VFSR) v6.35 in Netlib
  11.                           NIPS workshop summary
  12.  
  13.  
  14. Send submissions, questions, address maintenance, and requests for old
  15. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  16. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  17. requested by mail will eventually be sent, but may take a while.
  18.  
  19. ----------------------------------------------------------------------
  20.  
  21. Subject: Doctoral Program in Philosophy-Psychology-Neuroscience
  22. From:    Andy Clark <andycl@syma.sussex.ac.uk>
  23. Date:    Tue, 15 Dec 92 16:43:25 +0000
  24.  
  25.  
  26.  
  27.        First Announcement of a New Doctoral Programme in
  28.  
  29.  
  30.              PHILOSOPHY-NEUROSCIENCE-PSYCHOLOGY
  31.  
  32.                              at
  33.  
  34.              Washington University in St. Louis
  35.  
  36.  
  37.  
  38. The Philosophy-Neuroscience-Psychology (PNP) program offers a unique
  39. opportunity to combine advanced philosophical studies with in-depth work
  40. in Neuroscience or Psychology. In addition to meeting the usual
  41. requirements for a Doctorate in Philosophy, students will spend one year
  42. working in Neuroscience or Psychology. The Neuroscience option will draw
  43. on the resources of the Washington University School of Medicine which is
  44. an internationally acknowledged center of excellence in neuroscientific
  45. research. The initiative will also employ several new PNP related
  46. Philosophy faculty and post-doctoral fellows.
  47.  
  48.  
  49. Students admitted to the PNP program will embark upon a five-year course
  50. of study designed to fulfill all the requirements for the Ph.D. in
  51. philosophy, including an academic year studying neuroscience at
  52. Washington University's School of Medicine or psychology in the
  53. Department of Psychology.  Finally, each PNP student will write a
  54. dissertation jointly directed by a philosopher and a faculty member from
  55. either the medical school or the psychology department.
  56.  
  57. THE FACULTY
  58.  
  59. Roger F. Gibson, Ph.D., Missouri, Professor and Chair:
  60.   Philosophy of Language, Epistemology, Quine
  61.  
  62. Robert B. Barrett, Ph.D., Johns Hopkins, Professor:
  63.   Pragmatism, Renaissance Science, Philosophy of Social
  64.   Science, Analytic Philosophy.
  65.  
  66. Andy Clark, Ph.D., Stirling, Visiting Professor (1993-6) and
  67. Acting Director of PNP:
  68.   Philosophy of Cognitive Science, Philosophy of Mind,
  69.   Philosophy of Language, Connectionism.
  70.  
  71. J. Claude Evans, Ph.D., SUNY-Stony Brook, Associate Pro-
  72.   fessor:  Modern Philosophy, Contemporary Continental
  73.   Philosophy, Phenomenology, Analytic Philosophy, Social and
  74.   Political Theory.
  75.  
  76. Marilyn A. Friedman, Ph.D., Western Ontario, Associate
  77.   Professor:  Ethics, Social Philosophy, Feminist Theory.
  78.  
  79. William H. Gass, Ph.D., Cornell, Distinguished University
  80.   Professor of the Humanities:  Philosophy of Literature,
  81.   Photography, Architecture.
  82.  
  83. Lucian W. Krukowski, Ph.D., Washington University, Pro-
  84.   fessor:  20th Century Aesthetics, Philosophy of Art,
  85.   18th and 19th Century Philosophy, Kant, Hegel,
  86.   Schopenhauer.
  87.  
  88. Josefa Toribio Mateas, Ph.D., Complutense University,
  89.   Assistant Professor:  Philosophy of Language, Philosophy
  90.   of Mind.
  91.  
  92. Larry May, Ph.D., New School for Social Research, Pro-
  93.   fessor:  Social and Political Philosophy, Philosophy of
  94.   Law, Moral and Legal Responsibility.
  95.  
  96. Stanley L. Paulson, Ph.D., Wisconsin, J.D., Harvard, Pro-
  97.   fessor:  Philosophy of Law.
  98.  
  99. Mark Rollins, Ph.D., Columbia, Assistant Professor:
  100.   Philosophy of Mind, Epistemology, Philosophy of Science,
  101.   Neuroscience.
  102.  
  103. Jerome P. Schiller, Ph.D., Harvard, Professor:  Ancient
  104.   Philosophy, Plato, Aristotle.
  105.  
  106. Joyce Trebilcot, Ph.D., California at Santa Barbara, Associ-
  107.   ate Professor:  Feminist Philosophy.
  108.  
  109. Joseph S. Ullian, Ph.D., Harvard, Professor:  Logic, Philos-
  110.   ophy of Mathematics, Philosophy of Language.
  111.  
  112. Richard A. Watson, Ph.D., Iowa, Professor:  Modern Philoso-
  113.   phy, Descartes, Historical Sciences.
  114.  
  115. Carl P. Wellman, Ph.D., Harvard, Hortense and Tobias Lewin
  116.   Professor in the Humanities:  Ethics, Philosophy of Law,
  117.   Legal and Moral Rights.
  118.  
  119. EMERITI
  120.  
  121. Richard H. Popkin, Ph.D., Columbia:  History of Ideas,
  122.   Jewish Intellectual History.
  123.  
  124. Alfred J. Stenner, Ph.D., Michigan State:  Philosophy of
  125.   Science, Epistemology, Philosophy of Language.
  126.  
  127. FINANCIAL SUPPORT
  128.  
  129. Students admitted to the Philosophy-Neuroscience-Psychology (PNP) program
  130. are eligible for five years of full financial support at competitive
  131. rates in the presence of satisfactory academic progress.
  132.  
  133. APPLICATIONS
  134.  
  135. Application for admission to the Graduate School should be made to:
  136.                     Chair, Graduate Admissions
  137.                     Department of Philosophy
  138.                     Washington University
  139.                     Campus Box 1073
  140.                     One Brookings Drive
  141.                     St. Louis, MO 63130-4899
  142.  
  143. Washington University encourages and gives full consideration to all
  144. applicants for admission and financial aid without regard to race, color,
  145. national origin, handicap, sex, or religious creed.  Services for
  146. students with hearing, visual, orthopedic, learning, or other
  147. disabilities are coordinated through the office of the Assistant Dean for
  148. Special Services.
  149.  
  150.  
  151. ------------------------------
  152.  
  153. Subject: some information needed
  154. From:    Antonio Villani <ANTONIO%IVRUNIV.bitnet@ICINECA.CINECA.IT>
  155. Organization: "Information Center - Verona University - Italy"
  156. Date:    Tue, 15 Dec 92 16:56:46 -0100
  157.  
  158. I'm looking for any kind of information about 'avalanche network' and
  159. 'neural networks for prediction' applied to dynamic signal processing.
  160. Can someone help me?  Thanks in advance
  161.  
  162. Antonio Villani
  163. antonio@ivruniv.bitnet
  164.  
  165.  
  166. ------------------------------
  167.  
  168. Subject: Job Opportunity
  169. From:    Marwan Jabri <marwan@ee.su.oz.au>
  170. Date:    Thu, 17 Dec 92 10:19:55 +1100
  171.  
  172. The University of Sydney
  173. Department of Electrical Engineering
  174. Systems Engineering and Design Automation Laboratory
  175.  
  176. Girling Watson Research Fellowship
  177. Reference No. 51/12
  178.  
  179.  
  180. Applications are invited for a Girling Watson Research Fellowship at
  181. Sydney University Electrical Engineering. The applicant should have a
  182. strong research and development experience, preferably with a background
  183. in one or more of the following areas: machine intelligence and
  184. connectionist architectures, microelectronics, pattern recognition and
  185. classification.
  186.  
  187. The Fellow will work with the Systems Engineering and Design Automation
  188. Laboratory (SEDAL), one of the largest laboratories at Sydney University
  189. Electrical Engineering. The Fellow will join a group of 18 people (8 staff
  190. and 10 postgraduate students). SEDAL currently has projects on pattern
  191. recognition for implantable devices, VLSI implementation of connectionist
  192. architectures, time series prediction, knowledge integration and
  193. continuous learning, and VLSI computer aided design. The Research Fellow
  194. position is aimed at:
  195.  
  196. o       contributing to the research program
  197. o       helping with the supervision of postgraduate students
  198. o       supporting some management aspects of SEDAL
  199. o       providing occasional teaching support
  200.  
  201. Applicants should have either a PhD or an equivalent industry research and
  202. development experience.  The appointment is available for a period of
  203. three years, subject to satisfactory progress.
  204.  
  205. Salary is in the range of Research Fellow: A$39,463 to A$48,688.
  206.  
  207.  
  208. Applications quoting the reference number 51/12 can be sent to:
  209.  
  210.         The Staff Office
  211.         The University of Sydney
  212.         NSW 2006
  213.         AUSTRALIA
  214.  
  215.  
  216.  
  217. For further information contact
  218.  
  219.         Dr. M. Jabri, 
  220.         Tel: (+61-2) 692-2240, 
  221.         Fax: (+61-2) 660-1228, 
  222.         Email: marwan@sedal.su.oz.au
  223.  
  224.  
  225. ------------------------------
  226.  
  227. Subject: Follow-up on product guide
  228. From:    eric@sunlight.llnl.gov (Eric Keto)
  229. Date:    Thu, 17 Dec 92 17:01:36 -0800
  230.  
  231. >> Thanks for posting my question about neural net product reviews. I
  232. >> received a response with the information that there is a recent
  233. >> review in the July-August 1992 PC AI magazine.
  234. >Could you write up a little note about what you found and send it to
  235. >neuron@cattell... I'm sure others would like to know also.
  236.  
  237. OK, I finally got this magazine. 
  238.  
  239. Here is your note:
  240.  
  241. In the July-August 1992 issue of PC-AI magazine there is a "4th Annual
  242. Product Guide" which includes "information on products in a number of AI
  243. areas" including neural nets.  The list of products is quite long, 13
  244. pages of tiny type, and the descriptions are quite brief: product name,
  245. vendor, 20 words or so on the description, requirements, price. This is
  246. certainly not a critical review, but it is an extensive list.
  247.  
  248. Eric Keto (eric@sunlight.llnl.gov)
  249.  
  250.  
  251. ------------------------------
  252.  
  253. Subject: Very Fast Simulated Reannealing (VFSR) v6.35 in Netlib
  254. From:    Lester Ingber <ingber@alumni.cco.caltech.edu>
  255. Date:    Fri, 18 Dec 92 05:47:07 -0800
  256.  
  257.                 Very Fast Simulated Reannealing (VFSR) v6.35
  258.  
  259. Netlib requested an early update, and VFSR v6.35 is now in Netlib
  260. and soon will be updated in Statlib.  The code is stable, and is
  261. being used widely.  The changes to date typically correct typos and
  262. account for some problems encountered on particular machines.
  263.  
  264.                 NETLIB
  265. Interactive:
  266.         ftp research.att.com
  267.         [login as netlib, your_login_name as password]
  268.         cd opt
  269.         binary
  270.         get vfsr.Z
  271. Email:
  272.         mail netlib@research.att.com
  273.         send vfsr from opt
  274.  
  275.                 STATLIB
  276. Interactive:
  277.         ftp lib.stat.cmu.edu
  278.         [login as statlib, your_login_name as password]
  279.         cd general
  280.         get vfsr
  281. Email:
  282.         mail statlib@lib.stat.cmu.edu
  283.         send vfsr from general
  284.  
  285.                 EXCERPT FROM README
  286. 2.  Background and Context
  287.  
  288.      VFSR  was  developed  in  1987 to deal with the necessity of
  289. performing adaptive global optimization on multivariate nonlinear
  290. stochastic  systems[2].   VFSR was recoded and applied to several
  291. complex systems, in combat analysis[3],  finance[4],  and  neuro-
  292. science[5].   A  comparison  has  shown  VFSR to be superior to a
  293. standard genetic algorithm simulation on a suite of standard test
  294. problems[6],  and  VFSR  has  been  examined  in the context of a
  295. review of methods of simulated annealing[7].  A project comparing
  296. standard  Boltzmann  annealing  with "fast" Cauchy annealing with
  297. VFSR has concluded that VFSR is a superior algorithm[8].  A paper
  298. has  indicated how this technique can be enhanced by combining it
  299. with some other powerful algorithms[9].
  300.  
  301.  
  302. || Prof. Lester Ingber                         [10ATT]0-700-L-INGBER ||
  303. || Lester Ingber Research                        Fax: 0-700-4-INGBER ||
  304. || P.O. Box 857                           Voice Mail: 1-800-VMAIL-LI ||
  305. || McLean, VA  22101                EMail: ingber@alumni.caltech.edu ||
  306.  
  307.  
  308. ------------------------------
  309.  
  310. Subject: NIPS workshop summary
  311. From:    "Scott A. Markel x2683" <sam@sarnoff.com>
  312. Date:    Wed, 16 Dec 92 15:57:30 -0500
  313.  
  314.  
  315. [[ Editor's Note: Since I did not go to NIPS, I greatly appreciated this
  316. summary.  I hope (and urge) that readers will contribute their own
  317. summaries of future conferecnes and workshops. -PM ]] 
  318.  
  319.                             NIPS 92 Workshop Summary
  320.                             ========================
  321.  
  322.                 Computational Issues in Neural Network Training
  323.                 ===============================================
  324.  
  325. Main focus: Optimization algorithms used in training neural networks
  326. - ----------
  327.  
  328. Organizers: Scott Markel and Roger Crane
  329. - ----------
  330.  
  331. This was a one day workshop exploring the use of optimization algorithms, such
  332. as back-propagation, conjugate gradient, and sequential quadratic programming,
  333. in neural network training.  Approximately 20-25 people participated in the
  334. workshop.  About two thirds of the participants used some flavor of back
  335. propagation as their algorithm of choice, with the other third using conjugate
  336. gradient, sequential quadratic programming, or something else.  I would guess
  337. that participants were split about 60-40 between industry and the academic
  338. community.
  339.  
  340.  
  341. The workshop consisted of lots of discussion and the following presentations:
  342.  
  343. Introduction
  344. - ------------
  345. Scott Markel (David Sarnoff Research Center - smarkel@sarnoff.com)
  346.  
  347. I opened by saying that Roger and I are mathematicians and started
  348. looking at neural network training problems when neural net researchers
  349. were experiencing difficulties with back-propagation.  We think there are
  350. some wonderfully advanced and robust implementations of classical
  351. algorithms developed by the mathematical optimization community that are
  352. not being exploited by the neural network community.  This is due largely
  353. to a lack of interaction between the two communities.  This workshop was
  354. set up to address that issue.  In July we organized a similar workshop
  355. for applied mathematicians at SIAM '92 in Los Angeles.
  356.  
  357.  
  358. Optimization Overview
  359. - ---------------------
  360. Roger Crane (David Sarnoff Research Center - rcrane@sarnoff.com)
  361.  
  362. Roger gave a very brief, but broad, historical overview of optimization
  363. algorithm research and development in the mathematical community.  He
  364. showed a time line starting with gradient descent in the 1950's and
  365. progressing to sequential quadratic programming (SQP) in the 1970's and
  366. 1980's.  SQP is the current state of the art optimization algorithm for
  367. constrained optimization.  It's a second order method that solves a
  368. sequence of quadratic approximation problems.  SQP is quite frugal with
  369. function evaluations and handles both linear and nonlinear constraints.
  370. Roger stressed the robustness of algorithms found in commercial packages
  371. (e.g. NAG library) and that reinventing the wheel was usually not a good
  372. thing to do since many subtleties will be missed.  A good reference for
  373. this material is
  374.  
  375. Practical Optimization
  376. Gill, P. E., Murray, W., and Wright, M. H.
  377. Academic Press: London and New York
  378. 1981
  379.  
  380. Roger's overview generated a lot of discussion.  Most of it centered
  381. around the fact that second order methods involve using the Hessian, or
  382. an approximation to it, and that this is impractical for large problems
  383. (> 500-1000 parameters).  Participants also commented that the
  384. mathematical optimization community has not yet fully realized this and
  385. that stochastic optimization techniques are needed for these large
  386. problems.  All classical methods are inherently deterministic and work
  387. only for "batch" training.
  388.  
  389.  
  390. SQP on a Test Problem
  391. - ---------------------
  392. Scott Markel (David Sarnoff Research Center - smarkel@sarnoff.com)
  393.  
  394. I followed Roger's presentation with a short set of slides showing actual
  395. convergence of a neural network training problem where SQP was the
  396. training algorithm.  Most of the workshop participants had not seen this
  397. kind of convergence before.  Yann Le Cun noted that with such sharp
  398. convergence generalization would probably be pretty bad.  I noted that
  399. sharp convergence was necessary if one was trying to do something like
  400. count local minima, where generaization is not an issue.
  401.  
  402.  
  403. In Defense of Gradient Descent
  404. - ------------------------------
  405. Barak Pearlmutter (Oregon Graduate Institute - bap@merlot.cse.ogi.edu)
  406.  
  407. By this point back propagation and its many flavors had been well
  408. defended from the audience.  Barak's presentation captured the main
  409. points in a clarifying manner.  He gave examples of real application
  410. neural networks with thousands, millions, and billions of connections.
  411. This underscored the need for stochastic optimization techniques.  Barak
  412. also made some general remarks about the characteristics of error
  413. surfaces.  Some earlier work by Barak on gradient descent and second
  414. order momentum can be found in the NIPS-4 proceedings (p. 887).  A strong
  415. plea was made by Barak, and echoed by the other participants, for fair
  416. comparisons between training methods.  Fair comparisons are rare, but
  417. much needed.
  418.  
  419.  
  420. Very Fast Simulated Reannealing
  421. - -------------------------------
  422. Bruce Rosen (University of Texas at San Antonio - rosen@ringer.cs.utsa.edu)
  423.  
  424. This presentation focused on a new optimization technique called Very
  425. Fast Simulated Reannealing (VFSR), which is faster than Boltzmann
  426. Annealing (BA) and Fast (Cauchy) Annealing (FA).  Unlike back
  427. propagation, which Bruce considers mostly a method for pattern
  428. association/classification/generalization, simulated annealing methods
  429. are perhaps best used for functional optimization. He presented some
  430. results on this work, showing a comparison of Very Fast Simulated
  431. Reannealing to GA for function optimization and some recent work on
  432. function optimization with BA, FA, and VFSR.
  433.  
  434. Bruce's (and Lester Ingber's) code is available from netlib -
  435.  
  436. Interactive:
  437.         ftp research.att.com
  438.         [login as netlib, your_login_name as password]
  439.         cd opt
  440.         binary
  441.         get vfsr.Z
  442. Email:
  443.         mail netlib@research.att.com
  444.         send vfsr from opt
  445.         
  446. Contact Bruce (rosen@ringer.cs.utsa.edu) or Lester
  447. (ingber@alumni.cco.caltech.edu) for further information.
  448.  
  449.  
  450. General Comments
  451. - ----------------
  452. Yann Le Cun (AT&T Bell Labs - yann@neural.att.com)
  453.  
  454. I asked Yann to summarize some of the comments he and others had been
  455. making during the morning session.  Even though we didn't give him much
  456. time to prepare, he nicely outlined the main points.  These included
  457.  
  458. - - large problems require stochastic methods
  459. - - the mathematical community hasn't yet addressed the needs of the neural
  460.   network community
  461. - - neural network researchers are using second order information in a variety of
  462.   ways, but are definitely exploring uncharted territory
  463. - - symmetric sigmoids are necessary; [0,1] sigmoids cause scaling problems
  464.   (Roger commented that classical methods would accommodate this)
  465.  
  466.  
  467. Cascade Correlation and Greedy Learning
  468. - ---------------------------------------
  469. Scott Fahlman (Carnegie Mellon University - scott.fahlman@cs.cmu.edu)
  470.  
  471. Scott's presentation started with a description of QuickProp.  This
  472. algorithm was developed in an attempt to address the slowness of back
  473. propagation.  QuickProp uses second order information ala modified Newton
  474. method.  This was yet another example of neural network researchers
  475. seeing no other alternative but to do their own algorithm development.
  476. Scott then described Cascade Correlation.  CasCor and CasCor2 are greedy
  477. learning algorithms.  They build the network, putting each new node in
  478. its own layer, in response to the remaining error.  The newest node is
  479. trained to deal with the largest remaining error component.  Papers on
  480. QuickProp, CasCor, and Recurrent CasCor can be found in the neuroprose
  481. archive (see fahlman.quickprop-tr.ps.Z, fahlman.cascor-tr.ps.Z, and
  482. fahlman.rcc.ps.Z).
  483.  
  484.  
  485. Comments on Training Issues
  486. - ---------------------------
  487. Gary Kuhn (Siemens Corporate Research - gmk@learning.siemens.com)
  488.  
  489. Gary presented
  490.  
  491. 1. a procedure for training with stochastic conjugate gradient.
  492.    (G. Kuhn and N. Herzberg, Some Variations on Training of Recurrent Networks,
  493.     in R. Mammone & Y. Zeevi, eds, Neural Networks: Theory and Applications,
  494.     New York, Academic Press, 1991, p 233-244.)
  495.  
  496. 2. a sensitivity analysis that led to a change in the architecture of a speech
  497.    recognizer and to further, joint optimization of the classifier and its 
  498.    input features.  (G. Kuhn, Joint Optimization of Classifier and Feature
  499.    Space in Speech Recognition, IJCNN '92, IV:709-714.)
  500.  
  501. He related Scott Fahlmans' interest in sensitivity to Yann Le Cun's emphasis on
  502. trainability, by showing how a sensitivity analysis led to improved
  503. trainability.
  504.  
  505.  
  506. Active Exemplar Selection
  507. - -------------------------
  508. Mark Plutowski (University of California - San Diego - pluto@cs.ucsd.edu)
  509.  
  510. Mark gave a quick recap of his NIPS poster on choosing a concise subset
  511. for training.  Fitting these exemplars results in the entire set being
  512. fit as well as desired.  This method has only been used on noise free
  513. problems, but looks promising.  Scott Fahlman expressed the opinion that
  514. exploiting the training data was the remaining frontier in neural network
  515. research.
  516.  
  517.  
  518. Final Summary
  519. - -------------
  520.  Incremental, stochastic methods are required for training large networks.
  521. Robust, readily available implementations of classical algorithms can be
  522. used for training modest sized networks and are especially effective
  523. research tools for investigating mathematical issues, e.g. estimating the
  524. number of local minima.
  525.  
  526.  
  527. ------------------------------
  528.  
  529. End of Neuron Digest [Volume 10 Issue 24]
  530. *****************************************
  531.  
  532.